Por qué Anthropic encendió una alarma en la industria: la IA ya preocupa por su potencial para hackear sistemas

Durante la semana pasada un único tema preocupó al mundo de la tecnología: el lanzamiento de un nuevo modelo de inteligencia artificial muy eficiente para encontrar vulnerabilidades de seguridad en sistemas informáticos. Pero, también, tremendamente efectivo en explotarlas: Anthropic, una de las compañías más relevantes del boom actual de la IA junto con OpenAI, postergó el lanzamiento masivo de Claude Mythos Preview por considerarlo “demasiado riesgoso” para estar dando vueltas.
No es la primera vez que un peso pesado de Silicon Valley habla de una tecnología como un peligro. De hecho, OpenAI, creadora de ChatGPT, había dicho en febrero de 2019 que su generador de texto era “muy peligroso” para salir al mercado. Hasta se habló de “riesgo de extinción”. Tres años más tarde lanzó su chatbot y tomó al mundo por asalto: hoy, la IA generativa ya empieza a competir con Google en el día a día del usuario promedio.
El mundo cada vez más interconectado en el que nos movemos depende, en última instancia y en casi todos los casos, de la conectividad a la red. Desde una operación en el home banking hasta un mensaje enviado por WhatsApp, las grandes compañías que manejan estos servicios dependen de cuán seguros son sus sistemas.
Mythos Preview, según la propia empresa, ya muestra una capacidad inédita para detectar y explotar fallas críticas en software de forma autónoma. La compañía asegura que el sistema puede encontrar vulnerabilidades a una escala muy superior a la de un investigador humano avanzado, incluyendo errores graves en sistemas operativos, navegadores, software de uso masivo e incluso componentes clave de infraestructura digital.
Por ese nivel de riesgo, Anthropic decidió limitar la semana pasada su acceso a un grupo cerrado de más de 40 organizaciones tecnológicas y de ciberseguridad, entre ellas Apple, Google, Microsoft, AWS y CrowdStrike, dentro de un programa orientado a usos defensivos.
De hecho, esta semana Anthropic sacó su nueva versión de Claude, la 4.7, y la empresa tuvo que aclarar que es “menos riesgosa” que la edición que generó controversia: “Estamos lanzando Opus 4.7 con resguardos que detectan y bloquean automáticamente las solicitudes que indiquen usos de ciberseguridad prohibidos o de alto riesgo”, dijo Anthropic en un comunicado.
Cuál es el riesgo que plantea Anthropic
La empresa hace uno de los chatbots más usados del momento: Claude. Foto: ReutersAunque varias empresas y especialistas salieron a relativizar a la herramienta, una investigación independiente detectó una mejora sustantiva en las capacidades ofensivas del modelo. La evaluación del AI Security Institute encontró que puede encadenar ataques complejos sobre redes vulnerables y completar, en algunos casos, una simulación corporativa de 32 pasos de punta a punta. Esto, hasta hace unos años, era difícil de imaginar con tanta automatización.
“La noticia de Mythos es algo de lo que ya venimos hablando y analizando en muchos de nuestros benchmarks focalizados en hacking. Hay un progreso constante de los modelos en sus capacidades ofensivas, y son en cierta forma consecuencias de las mejoras que tienen los modelos en desarrollo de código”, dijo en diálogo con Clarín Nicolás Waisman, Chief Security Officer de Xbow, plataforma de seguridad ofensiva automatizada por IA.
“Las empresas tienen que empezar seriamente a pensar (y accionar) sobre cómo sus defensas van a manejar el progreso de estos modelos, porque la escala y velocidad de las capacidades ofensivas van a impactar fuertemente en la defensa”, complementó.
Clarín también contactó a Mandiant, compañía de ciberseguridad de Google, para conocer su postura frente a esteproblema. “Los modelos de IA de propósito general ahora se destacan en la detección de vulnerabilidades, reduciendo drásticamente la barrera de entrada para los actores maliciosos y habilitando campañas de explotación masiva. Esto abre una ventana crítica de riesgo para las empresas”, dijeron voceros de la compañía.
Mandiant puso el foco en el impacto operativo, al advertir que la IA ya está acortando el tiempo entre el descubrimiento de una vulnerabilidad y su explotación. En un documento publicado tras el caso Mythos, señalaron que modelos cada vez más capaces ya ayudan a detectar fallas y a generar exploits funcionales, algo que baja la barrera de entrada para atacantes y puede empujar campañas de explotación masiva, ransomware y extorsión.
CrowdStrike, otro jugador líder del sector, coincide en que el caso va mucho más allá de un lanzamiento puntual. En un comunicado, sostuvo que Mythos “importa para cada empresa” porque los modelos de frontera elevan al mismo tiempo el techo de la ofensiva y de la defensa, y remarcó que el desafío ya no pasa sólo por la seguridad del modelo en sí, sino por cómo se lo controla una vez que entra a una organización y se conecta con datos, sistemas internos y flujos de trabajo.
CrowdStrike, otra empresa de ciberseguridad, participa del programa de Anthropic. Foto BloombergCrowdStrike, que participa del programa cerrado de Anthropic, agregó además que en su último reporte detectó un aumento interanual del 89% en ataques de actores maliciosos que ya usan IA.
Google, por su parte, apunta a una conclusión que va a tono con la industria: las empresas ya no pueden seguir defendiéndose con procesos de parcheo y respuesta “a velocidad humana”.
La rapidez con la que opera la IA es una herramienta que puede servir mucho para defender sistemas. Pero, como todo en ciberseguridad, no existe la solución mágica. Todo viene con un contrapeso: si existe un dispositivo y está conectado a internet, alguien va a intentar atacarlo.
En ese mundo hiperconectado, la amenaza más grande no es un hacker o un grupo de atacantes, sino quienes ya usan la IA a su favor para comprometer sistemas.
La velocidad de respuesta humana ya no alcanza frente a la de la inteligencia artificial, por lo que los que defienden sistemas van a depender, cada vez más, de herramientas basadas en IA.
Fuente: www.clarin.com



